月之暗面 Kimi 开放平台将启动 Context Caching上下文缓存 内测
Kimi 开放平台近日宣布,备受期待的Context Caching功能即将启动内测。这一创新功能将支持长文本大模型,并通过高效的上下文缓存机制,为用户提供前所未有的体验。据Kimi开放平台官方介绍,Context Caching是一项前沿技术,旨在通过缓存重复的Tokens内容,大幅度降低用户在请求相同内容时的成本。其工作原理在于智能识别并存储已处理的文本片段,当用户再次请求时,系统能够迅速从缓存中调取,从而极大提升了API的接口响应速度。